Световни новини без цензура!
Един технически съвет: Не искате чатботове да използват вашите разговори за обучение с изкуствен интелект? Някои ви позволяват да се откажете
Снимка: apnews.com
AP News | 2024-11-22 | 11:19:35

Един технически съвет: Не искате чатботове да използват вашите разговори за обучение с изкуствен интелект? Някои ви позволяват да се откажете

ЛОНДОН (AP) — Внимавайте какво казвате на чатбот. Вашият диалог може да се употребява за възстановяване на системата за изкуствен интелект, върху която е построен.

Ако попитате ChatGPT за съвет по отношение на смущаващото ви здравно положение, внимавайте, че всичко, което разкриете, може да бъде употребявано за конфигурация на логаритмите на OpenAI, които са в основата на неговите AI модели. Същото важи, в случай че да вземем за пример качите сензитивен фирмен доклад в Gemini на Гугъл, с цел да го обобщите за среща.

Не е загадка, че моделите на ИИ, които са в основата на известните чатботове, са подготвени въз основата на големи количества информация, извлечена от интернет, като изявления в блогове, новинарски публикации и мнения в обществените медии, тъй че да могат да предскажат идната дума, когато идват с отговор на вашия въпрос.

Това образование постоянно се прави без единодушие, което поражда опасения за авторските права. и специалистите споделят, че като се има поради непрозрачният темперамент на AI моделите, евентуално е прекомерно късно да премахнете всичките си данни, които може да са били употребявани.

Но това, което можете да извършите отсега нататък, е да спрете всяко от вашите взаимоотношения с чатбот да се употребяват за образование на AI. Не постоянно е допустимо, само че някои компании дават на потребителите опцията:

Гугъл Gemini

Гугъл поддържа вашите диалози със своя чатбот Gemini, с цел да образова своите системи за машинно образование. За консуматори на 18 или повече години чатовете се резервират по дифолт за 18 месеца, само че това може да се поправя в настройките. Човешки рецензенти също имат достъп до диалозите, с цел да подобрят качеството на генеративните AI модели, които зареждат Gemini. Гугъл предизвестява потребителите да не оповестяват на Gemini каквато и да е поверителна информация или да не му дават каквито и да било данни, които не желаят да виждат от рецензент.

За да се откажете от това, отидете на уеб страницата на Gemini и щракнете върху раздела „ Дейност “. Щракнете върху бутона Изключване и от падащото меню можете да изберете да спрете записването на всички бъдещи чатове или да изтриете всичките си предходни диалози. Компанията предизвестява, че всички диалози, определени за човешка инспекция, няма да бъдат изтрити и се съхраняват настрана. Независимо дали изберете да изключите активността си или да я оставите включена, Гугъл също по този начин споделя, че всички чатове с Gemini ще бъдат непокътнати в продължение на 72 часа, с цел да „ дават услугата и да обработят всяка противоположна връзка “.

Помощната страница на Gemini също разказва в детайли процеса за консуматори на приложения за iPhone и Android.

Meta AI

Meta има AI чатбот, който се намесва в диалози във Фейсбук, WhatsApp и Instagram, задвижван от своите езикови модели на AI с отворен код. Компанията споделя, че тези модели са подготвени на информация, споделена на нейните платформи, в това число изявления в обществените медии и фотоси и информация за надписи, само че не и вашите персонални известия с другари и семейство. Те също са подготвени на публично налична информация, извлечена от други елементи на мрежата от „ трети страни “.

Не всеки може да се откаже. Хората в 27-членния Европейски съюз и Обединеното кралство, които имат строги разпореждания за дискретност, имат право да възразят против потреблението на тяхната информация за образование на AI системите на Meta. От страницата за дискретност на Фейсбук щракнете върху Други политики и публикации от листата отляво, след което щракнете върху раздела за генериращ AI. Превъртете надолу, с цел да намерите връзка към формуляр, където можете да възразите.

Има поле за попълване с спомагателна информация в поддръжка на вашата поръчка, само че няма детайлности за това какво би трябвало да кажете. Написах, че практикувам правото си на гражданин на Обединеното кралство да отдръпва единодушието си персоналната ми информация да бъде употребена за образование по AI. Получих имейл съвсем незабавно, че Мета е прегледал поръчката и ще почете възражението ми. „ Това значи, че вашата поръчка ще бъде приложена отсега нататък “, се споделя в него.

Хората в Съединените щати и други страни без национални закони за дискретност на данните нямат тази алтернатива.

Центърът за дискретност на Meta прави връзка към формуляр, където потребителите могат да изискат техните данни, изкопани от трети страни, да не се употребяват за „ създаване и възстановяване на AI в Meta “. Но компанията предизвестява, че няма да извършва автоматизирано поръчките и ще ги преглежда въз основа на локалните закони. Самият развой е муден, изисквайки от потребителите да дават поръчката за чатбот, която е произвела отговор, с тяхната персонална информация и екранна фотография от нея.

Microsoft Copilot

Няма метод за алтернатива за отвод за персонални консуматори. Най-доброто, което можете да извършите, е да изтриете взаимоотношенията си с чатбота на Copilot, като отидете на страницата за настройки и дискретност на вашия акаунт в Microsoft. Потърсете падащо меню с надпис История на взаимоотношението на Copilot или История на интензивността на Copilot, с цел да намерите бутона за заличаване.

ChatGPT на OpenAI

Ако имате акаунт в OpenAI, отидете в менюто с настройки на вашия уеб браузър и по-късно в секцията Контроли на данни, където можете да деактивирате конфигурация за „ Подобряване на модела за всички. " Ако нямате акаунт, щракнете върху дребния загадъчен знак в долния десен ъгъл на уеб страницата, по-късно щракнете върху настройките и ще получите същата алтернатива за отвод от образование за AI. Мобилните консуматори могат да създадат същия избор в приложенията ChatGPT за Android и iOS.

OpenAI споделя на своята помощна страница за надзор на данните, че когато потребителите се откажат, техните диалози ще продължат да се демонстрират в историята на чата, само че няма да се употребяват за образование. Тези краткотрайни чатове ще се съхраняват в продължение на 30 дни и ще се преглеждат единствено в случай че е належащо за наблюдаване за злоупотреби.

Grok

X на Илон Мъск безшумно задейства конфигурация, която разрешава на AI чатбота Grok на основния изпълнителен шеф на Tesla да бъде обучаван на данни от платформата на обществените медии. Тази конфигурация е включена по дифолт и разрешава на Grok да употребява данни, в това число вашите изявления, „ взаимоотношения, входове и резултати “ за образование и „ фина конфигурация “.

Промяната не беше разгласена и стана ясно едвам откакто X консуматори я видяха през юли. За да се откажете, би трябвало да отидете в настройките на настолната версия на браузъра на X, по-късно да щракнете върху „ Поверителност и сигурност “, превъртете надолу до „ Grok “ и по-късно премахнете отметката от квадратчето. Можете също да изтриете историята на диалозите си с Grok, в случай че имате такава. За страдание няма метод да го извършите от мобилното приложение X.

Claude

Anthropic AI споделя, че неговият чатбот Claude не е подготвен за персонални данни. Освен това по дифолт не употребява въпроси или поръчки за образование на своите AI модели. Потребителите обаче могат да дадат „ категорично позволение “ съответен отговор да бъде употребен в образованието, като го оценят с палец нагоре или с палец надолу или като изпратят имейл до компанията. Разговорите, които са маркирани за обзор на сигурността, също могат да се употребяват за образование на системите на компанията за по-добро използване на нейните правила.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!